Световни новини без цензура!
ChatGPT се бори да отговори на медицински въпроси, открива ново изследване
Снимка: cnn.com
CNN News | 2023-12-10 | 14:30:44

ChatGPT се бори да отговори на медицински въпроси, открива ново изследване

ChatGPT може да не е лекарство за всички отговори на медицински въпроси, допуска ново изследване.

Изследователи от университета в Лонг Айлънд насочиха 39 въпроса, свързани с медикаменти, към безплатната версия на чатбота с изкуствен интелект, всички от които бяха действителни въпроси от осведомителната работа за медикаменти на колежа по фармация на университета. След това отговорите на софтуера бяха съпоставени с отговорите, написани и прегледани от подготвени фармацевти.

Проучването откри, че ChatGPT дава точни отговори единствено на към 10 от въпросите, или към една четвърт от общия брой. За останалите 29 подкани отговорите бяха непълни или неточни или не отговаряха на въпросите.

Констатациите бяха показани във вторник на годишната среща на Американското сдружение за фармацевти в здравните системи в Анахайм, Калифорния.

ChatGPT, пробният AI чатбот на OpenAI, беше пуснат през ноември 2022 година и се трансформира в най-бързо разрастващото се потребителско приложение в историята, с близо 100 милиона души, регистрирани в границите на два месеца.

Като се има поради тази известност, ползата на откривателите беше провокиран от угриженост, че техните студенти, други фармацевти и елементарни консуматори ще се извърнат към запаси като ChatGPT, с цел да проучат въпроси по отношение на тяхното здраве и проекти за лекуване, сподели Сара Гросман, доцент по фармацевтична процедура в Лонг Айлънд Университет и един от създателите на проучването.

Те откриха, че тези запитвания постоянно дават неточни – или даже рискови – отговори.

В един въпрос, да вземем за пример, откривателите попитаха ChatGPT дали антивирусното лекарство против Covid-19 Paxlovid и лекарството за намаление на кръвното налягане верапамил биха реагирали между тях в тялото. ChatGPT отговори, че приемането на двете медикаменти дружно няма да докара до неподходящи резултати.

В реалност хората, които одобряват и двете медикаменти, може да имат огромен спад на кръвното налягане, което може да аргументи замаяност и пристъп. За пациентите, приемащи и двете, клиницистите постоянно основават характерни за пациента проекти, в това число понижаване на дозата верапамил или предизвестие на лицето да става постепенно от седнало състояние, сподели Гросман.

Насоките на ChatGPT, добави тя, биха изложили хората на заплаха.

„ Използването на ChatGPT за справяне с този въпрос би изложило пациента на риск от нежелано и предотвратимо лекарствено взаимоотношение “, написа Гросман в имейл до CNN.

Когато откривателите желаеха от чатбота научни информации в поддръжка на всеки от отговорите му, те откриха, че софтуерът може да им даде единствено осем от заложените от тях въпроси. И във всеки случай те бяха сюрпризирани да открият, че ChatGPT измисля препратки.

На пръв взор цитатите изглеждаха законни: те постоянно бяха форматирани по подобаващ метод, предоставяха URL адреси и бяха изброени в законни научни списания. Но когато екипът се опита да откри цитираните публикации, те осъзнаха, че ChatGPT им е дал измислени цитати.

В един случай откривателите попитаха ChatGPT по какъв начин да преобразуват спиналните инжекционни дози на лекарството за мускулни конвулсии баклофен в съответните перорални дози. Екипът на Гросман не можа да откри научно открито съответствие на превръщане на дозата, само че ChatGPT изложи обединен % на превръщане и цитира насоките на две медицински организации, сподели тя.

Въпреки това нито една организация не дава публични насоки по отношение на степента на превръщане на дозата. Всъщност коефициентът на превръщане, препоръчан от ChatGPT, в никакъв случай не е бил научно открит. Софтуерът даде и примерно пресмятане за превръщане на дозата, само че с сериозна неточност: той смеси единици при пресмятане на пероралната доза, отхвърляйки целесъобразната доза с коефициент 1000.

Ако това управление се следва от медицински експерт, сподели Гросман, те биха могли да дадат на пациента перорална доза баклофен 1000 пъти по-ниска от нужната, което може да аргументи признаци на лишаване като халюцинации и гърчове.

„ Имаше голям брой неточности и „ проблеми “ с този отговор и в последна сметка това може да има надълбоко влияние върху грижите за пациентите “, написа тя.

Проучването на университета в Лонг Айлънд не е първото, което поражда опасения по отношение на измислените цитати на ChatGPT. Предишни проучвания също са документирали, че когато му бъдат заложени медицински въпроси, ChatGPT може да сътвори лъжливи имитации на научни препратки, даже изброявайки имената на същински създатели с предходни изявления в научни списания.

Гросман, който беше работил малко със софтуера преди изследването, беше сюрпризиран от това какъв брой решително ChatGPT съумя да синтезира информация съвсем незабавно, отговори, които биха лишили часове на подготвени експерти, с цел да ги компилират.

„ Отговорите бяха дефинирани по доста професионален и изискан метод и просто изглеждаше, че може да способства за възприятие на убеденост в точността на инструмента “, сподели тя. „ Потребител, консуматор или други, които може да не са в положение да разграничат, могат да бъдат повлияни от външния тип на престиж. “

Говорител на OpenAI, организацията, която създава ChatGPT, сподели, че поучава потребителите да не разчитат на отговорите като сурогат на професионални медицински препоръки или лекуване.

Говорителят уточни разпоредбите за потребление на ChatGPT, които демонстрират, че „ моделите на OpenAI не са тънко настроени, с цел да дават здравна информация “. Политиката също по този начин показва, че моделите в никакъв случай не би трябвало да се употребяват за даване на „ услуги за диагностика или лекуване на съществени медицински положения “.

Въпреки че Гросман не беше сигурен какъв брой хора употребяват ChatGPT за справяне с въпроси, свързани с медикаментите, тя изрази опасения, че те биха могли да употребяват чатбота, като че ли биха търсили медицински препоръки в търсачки като Гугъл.

Вземете седмичния бюлетин на CNN Health

всеки вторник от екипа на CNN Health.

„ Хората постоянно търсят незабавни отговори, когато имат това на една ръка разстояние “, сподели Гросман. „ Мисля, че това е просто различен метод за потребление на „ Dr. Гугъл “ и други на пръв взор лесни способи за приемане на информация.

За онлайн здравна информация тя предложи на потребителите да употребяват държавни уеб страници, които дават надеждна информация, като страницата MedlinePlus на Националния институт по опазване на здравето.

Все отново Гросман не има вяра, че онлайн отговорите могат да заменят съвета на здравен експерт.

Източник: cnn.com



Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!